噪声的去除或取消对成像和声学具有广泛的应用。在日常生活中,Denoising甚至可能包括对地面真理不忠的生成方面。但是,对于科学应用,denoing必须准确地重现地面真相。在这里,我们展示了如何通过深层卷积神经网络来定位数据,从而以定量精度出现弱信号。特别是,我们研究了晶体材料的X射线衍射。我们证明,弱信号是由电荷排序引起的,在嘈杂的数据中微不足道的信号,在DeNo的数据中变得可见和准确。通过对深度神经网络的监督培训,具有成对的低噪声数据,可以通过监督培训来实现这一成功。这样,神经网络就可以了解噪声的统计特性。我们证明,使用人造噪声(例如泊松和高斯)不会产生这种定量准确的结果。因此,我们的方法说明了一种实用的噪声过滤策略,可以应用于具有挑战性的获取问题。
translated by 谷歌翻译
重用最初对不同数据训练的模型重用以提高下游任务性能是普遍的做法。尤其是在计算机视觉域中,已成功用于各种任务。在这项工作中,我们研究了转移学习对细分问题的影响,是可以用编码器decoder架构来解决的细分分类问题。我们发现,转移学习解码器不能帮助下游细分任务,而转移学习编码器确实是有益的。我们证明,解码器的预估量权重可能会产生更快的收敛性,但是它们不能改善整体模型性能,因为人们可以通过随机初始化的解码器获得等效的结果。但是,我们表明,重复使用在细分或重建任务上训练的编码器权重比重复对分类任务训练的编码器权重相比,更有效。这一发现暗示,使用ImageNet预言的编码器解决下游分割问题是次优的。我们还提出了一种具有多个自我重建任务的对比自我监督的方法,该方法提供了适合在没有分割标签的情况下在分割问题中转移学习的编码器。
translated by 谷歌翻译
高质量数据对于现代机器学习是必需的。但是,由于人类的嘈杂和模棱两可的注释,难以获取此类数据。确定图像标签的这种注释的聚合导致数据质量较低。我们提出了一个以数据为中心的图像分类基准,该基准具有9个现实世界数据集和每个图像的多次注释,以调查和量化此类数据质量问题的影响。我们通过询问如何提高数据质量来关注以数据为中心的观点。在数千个实验中,我们表明多个注释可以更好地近似实际的基础类别分布。我们确定硬标签无法捕获数据的歧义,这可能会导致过度自信模型的常见问题。根据呈现的数据集,基准基准和分析,我们为未来创造了多个研究机会。
translated by 谷歌翻译